home *** CD-ROM | disk | FTP | other *** search
/ HPAVC / HPAVC CD-ROM.iso / NEUCLS3.ZIP / NURN.ZP / INT.HLP < prev    next >
Text File  |  1994-09-03  |  2KB  |  50 lines

  1. Fast Training Program;
  2.  
  3. 1. Purpose;
  4.  a. Initialize a MLP using random initial weights
  5.  b. Train a MLP network using a method much faster than backpropagation
  6.  
  7. 2. Features;
  8.  a. Trains network much faster than BP
  9.  b. Uses a batching approach, so the order of training 
  10.     patterns is unimportant
  11.  c. Has adaptation of learning factor
  12.  d. Shows the training MSE and error percentages
  13.  e. Does not save weights to disk, in the demo version
  14.  
  15. 3. Example Run of Fast Training Program
  16.  a. Go to the "Batch Processing" option and press <ret>
  17.  b. Observe the parameter file with commented keyboard responses;
  18.  
  19. 15, 4.              ! number of training iterations, error % threshold
  20. 2                   ! Enter 1 for existing weights, 2 for new random weights
  21. grng.top            ! file storing network structure
  22. 1                   ! 1 if data file has desired outputs, 0 else
  23. 2                   ! 1 to choose coded outputs, 2 for uncoded outputs
  24. GRNG                ! filename for training data
  25. 0                   ! # of training patterns (0 for all)
  26. 1,   3              ! Enter numbers of 1st and last patterns to examine (0 0 for none)
  27. grng1.wts           ! filename for saving the weights
  28. .01                 ! learning factor
  29. 4                   ! 1 to continue, 2 for new network, 3 for new data, 4 to stop
  30.  
  31.     The program will read all patterns from the file grng, and train a MLP
  32.     using the network structure file grng.top, which is shown below.
  33.  
  34.            3
  35.           16          15           4
  36.            1           1
  37.  
  38.     The network will have 3 layers including 16 inputs, 15 hidden units
  39.     in one hidden layer, and 4 outputs (one per class). In addition,
  40.     layers 2 and 3 connect to all previous layers. Training will stop
  41.     after 15 iterations, or when the classification error % reaches 4 % .
  42.     The final network weights will be stored in the file grng.wts.  
  43.  c. Exit the DOS editor and observe the program running
  44.  d. Go to the "Examine Program Output" option and press <ret>
  45.  e. You can run this program on your own data, simply by editing the 
  46.     parameter file in the "batch Run" option.
  47.  
  48.  
  49.  
  50.